iT邦幫忙

2024 iThome 鐵人賽

DAY 4
0
生成式 AI

生成式AI真的如此方便嗎?系列 第 4

Day4-憂慮 (二)AI偏見與歧視

  • 分享至 

  • xImage
  •  

AI倫理中討論最廣泛的就是預測分析系統中的偏見與歧視問題以下有四個實例

  1. Amazon亞馬遜自動招聘系統歧視女生
    亞馬遜曾經使用AI來分析求職者的職位,由於女性在技術方面相對男生不佔優勢,因此演算法就傾向選擇男性。
  2. COMPAS種族偏見與再犯罪率
    COMPAS是一個美國預測再犯罪率的工具。2016年調查後發現黑人被錯誤判定為再犯率的機率高於白人。
  3. 美國醫療保健低估黑人病患需求
    2019調查發現,因醫院使用AI系統因此需要大量的成本,而導致病患需支付更多費用。原本白人所付的錢就高於黑人,所以又因此有了貧富差距的問題。所以系統判定黑人病患的健康錯誤率就又提升了。歸根究底,又回到了貧富差距的問題。
  4. ChatBot Tay分享歧視推文
    2016年微軟推出Tay聊天機器,希望能在Twitter上與用戶對話互動式學習。但不到24小時,聊天機器人就開始分享種族主義、反猶太主義等推文

以上就是AI存在的一些有偏見的憂慮,我認為現在科技愈來愈進步這種問題只會更多不會減少,所以大家應更注重這些問題並想出應對方法去避免這些問題愈來愈嚴重。


上一篇
Day3-憂慮 (一) 擴大貧富差距
下一篇
Day5-憂慮(三)錯誤資訊
系列文
生成式AI真的如此方便嗎?30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言